公開: 2021年5月10日
更新: 2021年5月21日
近年、ビッグ・データと呼ばれる情報技術が進歩している。社会における個人の活動を、その発生時点でデータとして把握し、地域的な単位や、個人の属性で分類し、社会全体の傾向を把握しようとする技術である。その主たる方法は、統計学の応用と、人工知能の応用である。ここで問題になる、公平な所得の再配分のための技術としては、人工知能の応用は難しいと考える。
ビッグ・データとは言え、元々のデータは、個人の活動の履歴であり、仮に名前が付けられていなくても、データの所有者が誰なのかは、簡単に分析できるであろう。そこで、データの利用者にデータを開示する時、特定個人のデータを個別に追跡できないように、層別したデータの集まりとして提供することが重要になろう。従って、データベースへのアクセスは、許されても、個別のデータを検索できないようにしなければならない。
そのため、検索結果が、層別されたデータであっても、元のデータ集合の大きさが、10件のみという小さな集合になる場合、検索結果を利用者に知らせることができないようにするなど、データベースの機能そのものに規制をかける必要があると思われる。情報セキュリティのため、アクセス権をしっかりと管理しなければならないことは、勿論である。
データベースと書いたが、それが従来型の形式化されたデータベースであるべきかどうかは、慎重に議論する必要がある。現段階の技術としては、大量のデータを高速にアクセスすることを考えると、形式化されたレコードのデータが望ましいが、将来の利用のことも考えると、もっと柔軟な、文字データのような形式で格納しておくことが重要であろう。重要なことは、将来出現する技術でも処理可能なようにしておくことである。
そのような視点から考えると、SGMLなどのタグを付したデータ列として蓄積することなどが、重要になろう。米国の公的な文書や資料については、法律で、SGML化することが義務付けられている。これは、100年後にも、文書の閲覧や電子処理ができるようにするためであると聴いている。